同态加密(HE)是隐私机器学习(PPML)中的核心建筑块,但他也被广泛称为其效率瓶颈。因此,已经提出了许多GPU加速的加密方案来提高HE的性能。但是,这些方法通常需要针对特定算法量身定制的复合修改,并与特定的GPU和操作系统紧密耦合。询问如何通常提供更实用的GPU加速算法的信息很有趣。鉴于大语言模型(LLMS)的强大代码通用功能,我们旨在探索它们的潜力,即使用CPU友好型代码自动生成实用的GPU友好算法代码。在本文中,我们关注数字理论转移(NTT) - HE的核心机制。我们首先开发并优化了对GPU友好的NTT(GNTT)家族,该家族利用了Pytorch的快速计算和预录,并实现了大约62倍的加速,这是一个大约62倍的加速,这是一个明显的增长。然后,我们使用各种LLM,包括DeepSeek-R1,Ope-Nai O1和O3-Mini探索GPU友好的代码生成。在整个过程中,我们发现了许多涉及的发现。例如,有些令人惊讶的是,我们的经验表明,DeepSeek-R1的表现明显优于OpenAi O3-Mini和O1,但仍然无法击败我们优化的协议。这些发现为ppml的PPML提供了宝贵的见解,并增强了LLMS的代码生成能力。代码可在以下网址提供:https://github.com/lmpc-lab/ gengpucrypto。
主要关键词